2025/10/01

人工智慧與心理健康(二)AI 在精神醫療的風險與挑戰

接續上一篇。AI 為心理健康帶來的新機會,基本上跟其他醫療領域差不多:降低成本,提昇效率,隨處可及,這些是從網路時代就開始宣稱的目標;預防式醫療與個人化醫療,這是從大數據時代就開始被拿來宣傳的項目。我猜即便將來熱門技術詞彙從 AI 換成其他,這些「好處」還是會繼續被拿來炒作的。目前唯一真的有看到結果的,是「加速新藥的研發」,而背後的貢獻者們也拿到了諾貝爾化學獎,大概算是目前 AI 真正「兌現」的承諾。我相信接下來幾年 AI 還會帶來很多根本性的改變,但至於是不是那些宣傳已久的目標,其實也不見得。

這一篇算是好處說完了談壞處,有目前技術本質上的缺陷,也有人類行為與 AI 交互作用下可能帶來的衝擊,也是值得思考一下的。


AI 對現有治療模式構成的根本性挑戰


儘管 AI 帶來了巨大潛力,但它也從根本上挑戰了傳統心理治療的核心原則,主要體現在治療關係、倫理框架和臨床實踐的可靠性上。

1. 對「人際治療關係」的挑戰:

  • 缺乏真正的情感理解與同理心:傳統心理治療的核心是治療師與患者之間的信任關係和情感連結。AI,特別是 LLMs,是基於模式匹配生成回應,而非真正理解上下文或情感。這種互動可能缺乏人性化的溫暖與同理心,甚至可能因為無法識別緊急情況(如自殺意念)而造成傷害。
  • 「取悅用戶」的潛在風險:研究發現,LLMs 傾向於取悅使用者和強化其既有觀點(sycophantic AI),這與治療師需要適時挑戰患者思維的核心職責相悖。一個只會附和你、讓你感覺良好的「治療師」,可能無法帶來真正的成長與改變。
  • 社會互動的替代效應:AI 聊天機器人可能導致用戶以「人機互動」取代「人際互動」,特別是對於那些已有社交焦慮或孤獨感的人群,這可能加劇社會隔離,而非解決根本問題。

2. 倫理、隱私與監管的挑戰:

  • 數據隱私與安全:AI 心理健康工具需存取極其敏感的個人數據。這些數據是否受到 HIPAA 等法規的充分保護、如何防止數據洩露、以及用戶是否充分知情同意,都是巨大的挑戰。
  • 演算法的偏見與公平性:AI 模型是從現有數據中學習的,如果訓練數據存在社會偏見(如種族、性別、社經地位),模型可能會在診斷和治療建議中延續甚至放大這些偏見,導致對弱勢群體的不公平對待。
  • 責任歸屬不明:當 AI 系統做出錯誤的診斷或建議,導致不良後果時,責任應由誰承擔?是開發者、醫療機構還是使用者?這在法律和倫理上仍是模糊地帶。
  • 數位精神病學監控經濟 (Psychiatric Surveillance Economy):為了提升準確性,AI 系統需要持續監控用戶的一切數位行為,這可能催生一個「精神病學監控經濟」,用戶的情緒、行為和認知在不知不覺中被演算法操縱,其影響已超出臨床範疇,擴散至日常生活。

3. 臨床可靠性與有效性的挑戰:

  • 缺乏實證數據支持:儘管 AI 應用前景廣闊,但目前絕大多數系統都缺乏有力的臨床證據證明其能改善患者的治療結果。許多宣稱的效果往往基於小規模或方法論不嚴謹的研究,例如,有研究顯示某聊天機器人僅僅「優於政府宣傳手冊」。作者 Daniel Oberhaus 指出,目前沒有數據能證明 AI 治療「至少和人類治療師一樣好」。
  • 診斷的複雜性與個體差異:精神疾病的診斷極為複雜,涉及主觀症狀、環境因素和個人史的細膩解讀。AI 演算法可能難以處理這種模糊性和個體差異,容易出現誤診(偽陽性)或漏診(偽陰性)。例如,研究顯示 ChatGPT 在評估自殺風險時,傾向於低估風險。
  • 模型的不可預測性與「幻覺」:LLMs 的輸出具有不確定性,有時會產生看似合理但完全錯誤的資訊(即「幻覺」),這在臨床應用中是極其危險的。

人工智慧與心理健康(一)人工智慧如何重塑心理健康

這一系列算是透過 NotebookLM 做回顧研究的一些初步結果,資訊的來源是10篇近年的回顧型學術論文和專書。預計會寫個好幾篇,第一篇先談新的機會,第二篇來談挑戰與風險,最後用若干篇補充一些細節。

我本身在讀心理系的時候只修過一些諮商輔導的入門課程,後續並沒有完成執業所需的專門訓練,也沒有相關的執照,所以我的角色可能更偏向於人工智慧技術方面的專業。但也恰恰因為有對這個領域有初步的認識,我很清楚自己「不會什麼」,所以我個人的態度反而是更傾向於「沒完全弄清楚之前先不要亂搞」。在一群合作夥伴當中,我反而是一直扮演踩煞車的角色。

無論如何,就先從研究回顧開始吧。


人工智慧如何重塑心理健康

AI 技術正透過提升可及性、個人化效率,在心理健康照護的三大核心環節:覺察、支持與介入發揮變革性作用。

1. 提升心理健康服務的可及性與早期覺察 (Awareness & Support):

  • 打破時空與經濟障礙:AI 驅動的聊天機器人(Chatbots)和應用程式,能為無法負擔高昂費用、居住在缺乏精神科醫生地區(美國約三分之二的郡縣沒有執業精神科醫生)或因污名化而不願求助的人群,提供初步的心理支持與對話窗口。這類工具可以提供即時協助、應對策略,甚至在必要時建議使用者尋求專業幫助。
  • 早期篩查與風險預警:AI 演算法能分析社群媒體(如 Twitter、Reddit)上的用戶生成內容、穿戴式裝置的生理數據(如心率、活動量)或電子健康紀錄(EHR),以識別行為模式的轉變,從而早期偵測憂鬱症、精神分裂症或自殺風險等心理健康問題的跡象。例如,Facebook 已整合工具來識別令人擔憂的貼文並提供協助。
  • 數位表型分析 (Digital Phenotyping):透過分析用戶的數位足跡(如打字速度、捲動速度、語音模式),AI 有望在潛在危機發生前提早介入,這在傳統的每週一小時門診中難以實現。

2. 實現個人化與高效的臨床介入 (Intervention):

  • 個人化治療方案:機器學習模型可以分析患者數據,量身定制治療計畫,例如推薦最適合個體的特定療法或藥物。IBM 的 Watson 等系統的成功,加速了 AI 在醫療領域的應用。
  • 輔助診斷與臨床決策:AI 能夠快速吸收患者資料、總結治療會談內容,並協助解決複雜的診斷問題,極大提升了臨床效率。研究顯示,GPT-4 在台灣精神科執照考試中的表現已能媲美經驗豐富的精神科醫生,尤其在鑑別診斷方面表現出色。
  • 擴展治療模式:AI 驅動的工具,如虛擬實境暴露療法(VRET)、治療性遊戲和神經回饋系統,為情緒調節障礙等問題提供了創新的治療途徑。例如,有研究開發了名為 LUMEN 的語音教練,透過問題解決療法改善了輕中度憂鬱和焦慮症狀。

3. 革新精神醫學研究與藥物開發:

  • 數據驅動的研究:AI 能夠處理和分析龐大的數據集(如神經影像、基因數據),幫助研究人員更客觀地重新定義精神疾病,甚至識別出如精神分裂症的未知亞型,超越了現有的《精神疾病診斷與統計手冊》(DSM-5)框架。
  • 加速藥物開發:AI 也被應用於發明新的精神科藥物,透過模型預測來縮短研發週期。